1
Introducción al Modelado Generativo: Más Allá de la Discriminación
EvoClass-AI003Lección 8
00:00

Introducción al Modelado Generativo: Más Allá de la Discriminación

Estamos pasando de modelado discriminativo, que resolvía tareas de clasificación y regresión aprendiendo la probabilidad condicional $P(y|x)$, hacia el dominio sofisticado del modelado generativo. Nuestro objetivo principal ahora cambia a estimación de densidad: aprender la distribución de datos subyacente completa $P(x)$ en sí misma. Este cambio fundamental nos permite capturar las dependencias intrincadas y la estructura compleja dentro de conjuntos de datos de alta dimensión, avanzando más allá de la simple separación de fronteras hacia una verdadera comprensión y síntesis de los datos.

1. El Objetivo Generativo: Modelado de $P(x)$

El objetivo de un modelo generativo es estimar la distribución de probabilidad $P(x)$ de la cual provienen los datos de entrenamiento $X$. Un modelo generativo exitoso puede realizar tres tareas cruciales: (1) Estimación de densidad (asignar una puntuación de probabilidad a una entrada $x$), (2) Muestreo (generar puntos de datos completamente nuevos $x_{new} \sim P(x)$), y (3) Aprendizaje no supervisado de características (descubrir representaciones significativas y desentrelazadas en un espacio latente).

2. Taxonomía: Verosimilitud Explícita frente a Implícita

Los modelos generativos se categorizan fundamentalmente por su enfoque hacia la función de verosimilitud. Modelos de Densidad Explícita, como Autoencoders Variacionales (VAEs) y Modelos de Flujo, definen una función matemática de verosimilitud y tratan de maximizarla (o su límite inferior). Modelos de Densidad Implícita, más famosamente Redes Adversariales Generativas (GANs), evitan por completo el cálculo de la verosimilitud, aprendiendo en su lugar una función de mapeo para obtener muestras de la distribución $P(x)$ mediante un marco de entrenamiento adversarial.

Pregunta 1
¿Cuál es la distribución principal de interés en el modelado generativo?
$P(x)$
$P(y|x)$
$P(x|y)$
$P(y)$
Pregunta 2
¿Qué tipo de modelo generativo se basa en el entrenamiento adversarial y evita definir una función de verosimilitud explícita?
Autoencoder Variacional (VAE)
Modelo Autoregresivo
Red Generativa Adversarial (GAN)
Modelo de Mezcla Gaussiana (GMM)
Desafío: Detección de Anomalías
Aprovechando la Estimación de Densidad
Un instituto financiero ha entrenado un modelo generativo de densidad explícita $G$ con millones de registros de transacciones legítimas. Llega una nueva transacción $x_{new}$.

Objetivo: Determinar si $x_{new}$ es una anomalía (fraude).
Paso 1
Basado en la estimación de densidad de $P(x)$, ¿qué medida estadística debe evaluarse para $x_{new}$ para marcarlo como anómalo?
Solución:
El modelo debe evaluar la probabilidad (o verosimilitud) $P(x_{new})$. Si $P(x_{new})$ cae por debajo de un umbral predeterminado $\tau$, lo que significa que el nuevo punto es estadísticamente improbable bajo la distribución aprendida de transacciones normales, se marca como una anomalía.